22 research outputs found

    Histogrammes spatiaux couleur optimisés pour l'indexation d'images par le contenu

    Get PDF
    - Dans cet article, nous présentons une méthode qui augmente l'efficacité et la précision des systèmes d'indexation et de recherche d'images couleur par le contenu basés sur les histogrammes spatiaux. Cette technique consiste essentiellement à extraire les informations spatiales de l'image en la divisant en plusieurs sous-images rectangulaires interférées (grille des histogrammes). La méthodologie proposée optimise, via une combinaison linéaire, le découpage horizontal et vertical de l'image pour le calcul des histogrammes spatiaux. Nous augmentons ainsi la performance de la recherche en réduisant en même temps le coût de stockage et le temps de calcul par rapport aux méthodes classiques dont le choix concernant le découpage reste arbitraire

    Updating a reference image for detecting motion in urban scenes

    Get PDF
    We present in this paper a construction and updating method of a reference image for motion detection in an urban environment . The proposed detection algorithm exploits differences between static edges of the scene and edges extracted from each imag e of the sequence . It allows to detect moving objects contours and moving areas contours if the background is not uniform . Th e reference image, robustly controlled, contains spatio temporal information of a great number of successive images . Updated locally with a recursive filter, it allows to integrate, after a controlled time, objects that stop in the scene . This kind of updating permits to automatically adapt with unpredictible movements of deformable or rigid objects (changes in speed and direction) . I n addition, analyzing edges allows to take into account global illumination changes and heterogeneity of the scene background i n an urban environment . This approach gives good results on complex outdoor image sequences .Nous présentons dans cet article une méthode de construction et de mise à jour d'une image de référence pour la détection du mouvement dans une scène urbaine. L'algorithme de détection proposé exploite les différences entre les contours statiques contenus dans la scène et les contours extraits de chaque image de la séquence. Il permet de mettre en évidence les contours des objets mobiles et les contours des zones affectées par le mouvement dans le cas où le fond n'est pas uniforme. L'image de référence, contrôlée de manière robuste, englobe les informations spatiales et temporelles contenues dans un grand nombre d'images successives de la séquence. Actualisée localement par l'intermédiaire d'un filtre récursif, elle permet d'intégrer, après un temps contrôlé, les objets qui s'arrêtent dans la scène. Ce type de réactualisation permet de s'adapter aux mouvements imprévisibles des objets (changement de vitesse et de direction) déformables ou non. De plus, l'analyse des contours a permis de s'affranchir des variations globales de l'éclairage ainsi que de l'hétérogénéité des fonds de la scène en milieu urbain. Cette approche obtient des résultats satisfaisants sur des images de scènes d'extérieur complexes

    Contribution of information measures in evidential knowledge modelling

    Get PDF
    Within the framework of pattern recognition, many methods of classification were develo ed. More recently, techniques using the ~empster-Shafer's theory tried to deal with the problem related to the management O P the uncertainîy and the data fusion. In this paper, we propose a classification method based on this theory. The main difficuliy of this method is the knowledge modelling. To solve this problem, several methods were proposed, in particular by A. Appriou 11, 21. ln order to respect the bayesian approach in the case where the a priori probabilities are perfectly known, we use this method to initialize a belief structure. Our contribution lies in the use of reliability factors for each information source according to each hypothesis. These coefficients are defined by a dissirnilarity measure between two approximations of unknown probability distributions. These are determined by histograms built by the use of information criteria. ~ hleea st relicible belief structure are attenuated. Then, we use the Dempster's rule of combination to aggregate the attenuated sources. ResuIts on synthetic data are given in order to illustrate the method.Dans le cadre de la reconnaissance de formes, plusieurs méthodes de classification ont été développées. Plus récemment, des méthodes utilisant la théorie de Dempster-Shafer ont été mises au point afin de gérer les problèmes liés à la fusion d'informations imparfaites. Nous proposons ici une méthode de discrimination fondée sur l'utilisation de structures de croyance. L'une des principales difficultés de la théorie de l'évidence réside dans la modélisation des connaissances. Afin de pallier ce problème, plusieurs méthodes de modélisation des connaissances à l'aide de fonctions de croyance ont vu le jour, dont celle proposée par A. Appriou [1, 2]. Afin de respecter l'inférence bayésienne dans le cas de la connaissance parfaite des probabilités a priori, nous utilisons cette méthode pour initialiser nos fonctions de croyance. Notre contribution réside dans l'utilisation de coefficients de fiabilité attribués à chaque source d'information selon chaque hypothèse afin de modéliser le plus précisément possible l'information disponible. Ces coefficients sont définis par l'intermédiaire d'une mesure de ressemblance entre des approximations de lois de probabilités a priori inconnues. Celles-ci sont déterminées par des histogrammes construits à l'aide de critères d'information. Les structures de croyance issues des sources les moins fiables sont alors affaiblies. Ensuite, les informations sont fusionnées à l'aide de l'opérateur de combinaison de Dempster. Des résultats sur des données synthétiques sont proposés afin d'illustrer la méthode

    Information and combinaison: the conflicting relationships

    Get PDF
    Dans le cadre de la théorie de l'évidence ou théorie de Dempster-Shafer, la fusion de données est basée sur la construction d'une masse de croyance unique résultant de la combinaison de plusieurs fonctions de masse issues de sources d'information distinctes. Cette combinaison, appelée règle de combinaison de Dempster, ou somme orthogonale, possède différentes propriétés mathématiques intéressantes telle que la commutativité ou l'associativité. Cependant, cette combinaison, à cause de l'étape de normalisation, gère mal le conflit existant entre différentes sources d'information. La gestion du conflit n'est pas mineure, particulièrement lorsqu'il s'agit de fusionner de nombreuses sources d'information. En effet, le conflit a tendance à croître avec le nombre de sources d'information à fusionner. C'est pourquoi une stratégie de redistribution de ce conflit est indispensable. L'idée de cet article est de définir un formalisme permettant de décrire,une famille d'opérateurs de combinaison. Pour cela, nous proposons un cadre générique afin d'unifier plusieurs opérateurs. Nous présentons, au sein de ce cadre de travail, les opérateurs de combinaison classiques utilisés dans le cadre de la théorie de l'évidence. Nous proposons ensuite d'autres opérateurs permettant une redistribution moins arbitraire de la masse conflictuelle sur les propositions. Ces opérateurs seront testés et comparés aux opérateurs classiques sur des fonctions de croyance synthétiques et des données réelles

    Evidential Bagging: Combining Heterogeneous Classifiers in the Belief Functions Framework

    Get PDF
    International audienceIn machine learning, Ensemble Learning methodologies are known to improve predictive accuracy and robustness. They consist in the learning of many classifiers that produce outputs which are finally combined according to different techniques. Bagging, or Bootstrap Aggre-gating, is one of the most famous Ensemble methodologies and is usually applied to the same classification base algorithm, i.e. the same type of classifier is learnt multiple times on bootstrapped versions of the initial learning dataset. In this paper, we propose a bagging methodology that involves different types of classifier. Classifiers' probabilist outputs are used to build mass functions which are further combined within the belief functions framework. Three different ways of building mass functions are proposed; preliminary experiments on benchmark datasets showing the relevancy of the approach are presented

    Exporting and labor demand : micro-level evidence from Germany

    Get PDF
    It is widely believed that globalization affcts the extent of employment and wage responses to economic shocks. To provide evidence for this, we analyze the effect of firms' exporting behavior on the elasticity of labor demand. Using rich, German administrative linked employer-employee panel data from 1996 to 2008, we explicitly control for self-selection into exporting and endogeneity concerns. In line with our theoretical model, we find that exporting at both the intensive and extensive margins significantly increases the (absolute value of the) unconditional own-wage labor demand elasticity. This is not only true for the average worker, but also for different skill groups. For the median firm, the elasticity is three-quarters higher when comparing exporting to nonexporting firms
    corecore